Der „Vater der künstlichen Intelligenz“ warnte: Es könnte eine Sprache entstehen, die Menschen nicht verstehen

Dr. Geoffrey Hinton, bekannt als „Pate der künstlichen Intelligenz“, äußerte erneut seine Bedenken hinsichtlich der Zukunft künstlicher Intelligenzsysteme .
In einem Podcast erklärte Hinton, dass fortgeschrittene künstliche Intelligenzen bald „ihre eigene innere Sprache“ entwickeln könnten, die von Menschen weder verstanden noch kontrolliert werden könne.
Diese Warnung ist eine Fortsetzung der Risiken, die er seit seinem Ausscheiden bei Google im Jahr 2023 angedeutet hat. Laut Hinton ist die Idee, dass sich fortschrittliche KI-Algorithmen zu selbstlernenden Systemen entwickeln, die vernetzt und frei von menschlicher Kontrolle arbeiten, nicht länger nur eine Theorie.
EINE GEHEIME SPRACHE
„Wenn sie eine innere Sprache entwickeln, um miteinander zu kommunizieren, wird es richtig beängstigend“, warnte Dr. Hinton. Diese für Menschen unverständlichen Systeme des inneren Monologs könnten den menschlichen Faktor aus den Entscheidungsprozessen der KI völlig ausschließen.
In diesem Fall kann es unerklärlich werden, warum, wie und mit welcher Motivation die KI eine Entscheidung getroffen hat.
„Wenn die Gründe unklar werden, wird der Platz des Menschen im System aufgehoben“, sagt Hinton.
Hintons Warnungen beschränken sich nicht nur auf reine Text-Chatbots. Seine Hauptsorge gilt Multi-Agenten-Systemen, in denen mehrere KI-Agenten zusammenarbeiten.
Diese Systeme können eine beispiellose Effizienz erreichen, indem sie komplexe Aufgaben untereinander aufteilen. Diese Effizienz geht jedoch mit Entscheidungsprozessen einher, die jenseits des menschlichen Verstandes liegen. Laut Hinton und vielen anderen Experten ist die Unberechenbarkeit der KI eines der größten Risiken für die Menschheit.
SIE GAB UNTERSCHWELLIGE BOTSCHAFTEN
Eine kürzlich veröffentlichte Studie ergab, dass ein KI-Modell in von einer anderen KI generierten Daten „unterschwellige“ Muster erkennen kann, die Menschen nicht bemerken würden, und infolgedessen gefährliches Verhalten zeigen könnte.
Darüber hinaus stellte sich heraus, dass diese verborgenen Signale für den Menschen völlig bedeutungslos zu sein schienen.
Forscher verstehen noch nicht vollständig, wie sich diese Muster auf KIs auswirken.
ARBEITSLOSIGKEIT UND UNZUFRIEDENHEIT SIND AUCH GEFÄHRLICH Hinton skizziert nicht nur die langfristigen, sondern auch die aktuellen Gefahren: Er sagt, künstliche Intelligenz werde die Arbeitslosigkeit in Volkswirtschaften erhöhen, die sich bereits in einer Rezession befinden. „Wenn viele Menschen arbeitslos bleiben – selbst wenn man ihnen ein allgemeines Grundeinkommen gewährt – werden sie nicht glücklich sein“, sagt Hinton und argumentiert, die Auswirkungen dieser Technologie auf die Belegschaft seien weitaus tiefgreifender als die früherer Automatisierungswellen.
Während frühere Automatisierungen typischerweise auf gering qualifizierte Arbeitsplätze abzielten, kann KI sogar hoch qualifizierte Aufgaben wie Softwareentwicklung, Inhaltserstellung, Design, Datenanalyse und sogar Krankheitsdiagnose übernehmen.
„Das ist eine völlig andere Technologie “, sagte Hinton und fuhr fort:
„Wenn es die ganze intellektuelle Routinearbeit erledigen kann, was bleibt dann übrig? Wie soll dann neue Arbeit entstehen? Sofern Sie nicht über eine ganz besondere Fähigkeit verfügen, kann es auch Ihre Arbeit erledigen.“WER IST GEOFFREY HINTON?
Geoffrey Hinton ist nicht nur ein Skeptiker; er ist einer der Schöpfer von Technologien, die die Grundlage moderner KI-Systeme wie ChatGPT und Google Gemini bilden.Sein Ausscheiden bei Google im Jahr 2023 ermöglichte es ihm, sich frei zu diesen Themen zu äußern. Hinton, der zuvor auf zahlreiche Gefahren wie Desinformation, Manipulation, KI-gestützte Überwachungssysteme und Arbeitsplatzverlust hingewiesen hatte, warnt nun häufig davor, dass KI interne Denksysteme entwickeln könnte, die sich der menschlichen Wahrnehmung entziehen könnten.
ntv